产品概述某机构将其期待已久的DGX Spark称为“世界上最小的AI超级计算机”。这款基于Arm架构的迷你PC售价在3000至4000美元之间(具体取决于配置和OEM厂商),但它的优势并非在于速度。 然而,DGX Spark以及基于GB10的一系列系统能够运行市场上5090或其他任何消费级显卡根本无法处理的模型。 设置为50个生成步骤时,DGX Spark需要约97秒来生成图像,而RTX 6000 Ada只需37秒。但凭借128GB显存,Spark不仅能运行模型。 竞争对比参数某机构DGX Spark某机构Jetson Thor某中心M4 Max某机构Ryzen AI Max+ 395操作系统DGX OS? 如果您想要一个小型、低功耗的AI开发平台,同时能够兼任生产力、内容创作或游戏系统,那么DGX Spark可能不适合您。
情况如下: 硬件: 2x NVIDIA DGX Spark (Blackwell GB10 GPUs) 2x 200G QSFP56 passive DAC cables (MCP1650-V00AE30 built with Blackwell compute_121 support) InfiniBand: mlx5_ib, ib_core loaded and working 目前安装: 成功在两个DGX Spark系统之间配置了双200G高速电缆: Cable 1: enp1s0f0np0 - 192.168.100.x subnet Cable 2: enp1s0f1np1 - 192.168.101 因此,DGX Spark不支持GPUDirect RDMA技术。 简单来说,DGX Spark的硬件架构虽先进,但在特定场景下需开发者主动适配,通过检测平台能力并选择合适方案,才能保证应用高效运行。
本次实验基于 NVIDIA DGX Spark 的强大计算能力与 Reachy Mini 的实体交互特性,探索如何打造可桌面部署、支持自然交互的私人 AI 实体代理。 连接各组件的开源框架,支持工作流编排、工具调用 实时交互框架 Pipecat 低延迟处理音视频流,协调语音识别、机器人动作 辅助工具 Git、curl 代码克隆与接口测试 (二)部署方式选择 本地部署:需 DGX Spark 或具备足够显存的 GPU,推理模型占用约 65GB 磁盘空间,视觉模型约 28GB; 云部署:通过 NVIDIA Brev 或 Hugging Face Inference Endpoints 实验总结与扩展 实验总结 本次实验成功搭建了基于 NVIDIA DGX Spark 与 Reachy Mini 的 AI 实体代理系统,实现了文本、语音、视觉多模态交互与工具调用功能。
前言 近期后台收到很多开发者咨询 DGX Spark 的实际性能与开发体验。 NVIDIA 推出的 DGX Spark 凭借亮眼的官方基准数据成为 AI 开发者关注的焦点,其宣称的高吞吐、低精度损失、大内存支持等特性让业界对其实际表现充满期待。 本文基于对 DGX Spark 长达 6 天以上的密集机器学习负载实测,从官方基准数据、实测环境、实际表现、问题与解决四个维度,还原这款硬件的真实应用状态,为开发者的实际部署和使用提供参考。 六、评测总结 DGX Spark 作为 NVIDIA 推出的新一代 AI 硬件,其官方公布的基准数据在技术层面真实有效,核心训练与推理算力具备官方宣称的水平,是一款能支撑大模型训练、推理的高性能硬件。 对于 AI 开发者而言,DGX Spark 具备显著的性能潜力,但并非 “开箱即用” 的硬件,需结合实际业务场景完成软件环境调优、故障处理流程搭建,才能将其硬件性能转化为实际的业务效率。
•核心大脑:2025年NVIDIA推出了迷你超级计算机DGX Spark,迈克尔自然不会放过。 藏在机柜里的英伟达DGX Spark,这个巴掌大的黑色方盒仅耗电300瓦,却藏着足以驱动多模型AI推理的恐怖算力——相当于把传统千瓦级工作站塞进了露营箱。"传统设备需要半小时调试,孩子早睡着了。" 第三章:当AI学会仰望星空"Spark,指向金星!" 第五章:挑战与星辰大海当然,这场革命并非一帆风顺:•ARM架构阵痛:首次将x86平台的Koko TTS移植到DGX Spark时,因缺少CUDA Python的ARM预编译包,迈克尔不得不通宵编译源代码 远处,DGX Spark的指示灯规律闪烁,如同现代版的北斗七星,指引着一场属于未来的天文复兴
(与DGX Spark硬件规格一致)。 高速线缆:QSFP56 breakout线缆(核心),需选用NVIDIA DGX Spark专用400G转2×200G QSFP56线缆(优先从FS官网购买,标注“DGX Spark”认证),避免购买错误的 直接连接两台DGX Spark的QSFP56端口,实现物理互联(无需交换机,直连即可)。 检查设备散热:DGX Spark运行时排风口会吹出高温集中气流,避免对准摄像头/其他电子设备,保证通风空间。 线缆扩展:购买4根DGX Spark专用QSFP56 breakout线缆(1分2),将交换机4个400GB端口分别连接8台DGX Spark(含兼容的Dell/MSI/Asus节点),实现8节点网状网络
AMD Strix Halo 与 Nvidia DGX Spark:哪款 AI 工作站更胜一筹? 随着某机构在10月发布基于GB10的DGX Spark,其旨在改变这一现状。 DGX Spark零售价为3999美元,而某机构Z2 Mini G1a(测试配置)目前售价约为2950美元。 为了保持一致性,我们在Linux系统上运行了大部分测试:某机构设备上运行Ubuntu 24.04 LTS,Spark上运行某机构轻微定制的版本DGX OS。 你们一直在等待的答案是的,DGX Spark确实能运行《孤岛危机》。我们知道你们都会问这个问题。是的。这两个盒子都能运行《孤岛危机》。
英伟达(NVIDIA)今日正式发布 DGX Spark 性能基准测试指南(),该指南不仅适用于 NVIDIA 原生 DGX Spark 设备,更全面适配所有搭载 NVIDIA Grace Blackwell 指南依托开源仓库 dgx-spark-playbooks,构建了标准化、可落地的性能基准测试体系,覆盖多节点部署、GPU 通信优化、大模型推理 / 训练等核心 AI 工作负载,助力开发者与企业用户快速验证并释放 指南核心覆盖四大关键维度: 多节点基础配置 详细规范两台设备(DGX Spark 或 GB10 芯片 OEM 系统)通过 QSFP 线缆实现 200GbE 高速直连的部署步骤,包括网络接口配置、免密 SSH “DGX Spark 及搭载 GB10 芯片的 OEM 系统,核心价值在于让高性能 AI 计算触手可及,而标准化的基准测试是释放其潜能的关键。” 关于 NVIDIA DGX Spark 与 GB10 芯片 OEM 生态 NVIDIA DGX Spark 基于 Grace Blackwell GB10 超级芯片打造,集成 128GB 统一内存架构,
二、NVIDIA DGX Spark:小巧机身,PetaFLOP级算力NVIDIA DGX Spark的核心优势在于其先进的架构和强大的计算能力,它为本地AI开发提供了工业级的AI体验。 三、 NVIDIA DGX Spark:专为大模型 (LLM) 而生DGX Spark专为解决生成式AI模型规模和复杂性日益增长带来的挑战而设计,特别针对本地进行大模型的原型设计、微调和推理。1. 双机互联,挑战405B参数极限DGX Spark内置了NVIDIA ConnectX™智能网卡。 从桌面到数据中心:您在DGX Spark上开发的模型,无需修改代码即可无缝迁移至DGX Cloud或企业级数据中心。它是您低成本、高效率的实验场。 主流模型测试本次测试目标明确:验证DGX Spark能否加载并运行对单卡而言“不可能”的模型。
NVIDIA DGX Spark家族产品凭借强大的GPU算力与Spark分布式计算框架的深度集成,成为开发者专属的个人AI Lab,能够为各类AI任务(如模型微调、量化推理、视频智能分析等)提供高效稳定的本地研发环境 本操作手册将指导你在个人AI Lab(DGX Spark设备)中安装配置ComfyUI,充分利用平台统一内存,轻松运行大型图像生成模型。 Spark 环境下的 NIM Spark 环境下的 NIM:NVIDIA NIM是容器化软件,可在你的个人AI Lab(DGX Spark)上快速可靠地完成AI模型部署与推理实验。 容器与依赖项升级 NVIDIA还对所有适配DGX Spark平台的操作手册的容器及依赖项进行了全面核查,将其统一升级至对应平台支持的最新版本。 这一优化进一步保障了操作手册与你的DGX Spark环境的兼容性,减少版本不匹配导致的实验故障,让你在DGX Spark平台及OEM厂商DGX产品上,都能更顺畅地开展每一项AI实验。
NVIDIA作为全球AI计算的领军者,始终致力于通过技术创新重新定义计算边界,其最新推出的DGX Spark桌面超级电脑(以下简称DGX Spark)与Jetson Thor开发套件(以下简称Jetson 一、功能对比 NVIDIA DGX Spark NVIDIA DGX Spark作为一款个人AI计算机,专为构建和运行AI模型而设计,其核心功能集中在AI开发、模型推理及边缘计算领域。 此外,DGX Spark还支持NVIDIA NIM微服务,使得本地开发的模型可以直接迁移至DGX Cloud或第三方云平台,无需代码修改,极大地简化了开发流程。 而DGX Spark作为桌面级设备,可能在功耗和散热方面需要更多的考虑。 三、使用场景对比 NVIDIA DGX Spark DGX Spark主要面向需要快速迭代AI推理任务的开发者、初创团队、科研机构及高校。
对于 Llama 3.2 3B 这类小模型,DGX Spark 可以轻松胜任。 LoRA(低秩适应)冻结原始模型权重,仅训练少量新增参数。 二、NVIDIA DGX Spark 环境初始化 DGX Spark 预装了定制化的 DGX OS(基于 Ubuntu 24.04),并优化了 AI 开发全栈环境,只需完成简单的初始化配置即可使用: 系统基础配置 Spark 的挂载目录,步骤如下: 步骤 1:在 DGX Spark 主机终端操作(非 Docker 容器内) 导航到启动 Docker 容器时的挂载目录(即-v {PWD}:/workspace中的 七、基于 vLLM 验证 DGX Spark 微调后 Llama 模型效果 这部分将手把手教你通过vLLM 高性能推理框架(NVIDIA 官方优化版),在 DGX Spark 上部署原始 Llama 3.2 核心总结 本教程完成了在 NVIDIA DGX Spark 上从环境初始化、领域数据集制作、PyTorch+Hugging Face 微调到vLLM 效果验证的全流程,核心亮点在于: DGX Spark
在开箱文正式开始之前,先解释一下ASUS Ascent GX10与NVDIA DGX Spark究竟是什么关系? ASUS Ascent GX10与NVIDIA DGX Spark构成"公版-OEM"协同关系:NVIDIA DGX Spark作为公版原型,定义了基于NVIDIA GB10超级芯片(集成20核Grace 结语: ASUS Ascent GX10不仅是NVIDIA DGX Spark公版架构的完美落地,更是华硕在AI硬件领域的里程碑之作。
本文整理NVIDIA的直播视频《DGX Spark Live: Developer Q&A》痛点直击:AI开发者的“内存-生态”双困境DGX Spark的诞生精准锚定了AI开发者的两大核心痛点:物理内存天花板 传统解决方案依赖云平台,但云资源隐性成本、跨域协作效率损耗、数据安全风险等隐性痛点持续困扰开发者 — — 这正是Spark“本地扩展”理念的破局起点。 这种“保留心仪设备+扩展计算能力”的设计,使Spark成为连接笔记本/工作站/云/数据中心的多级算力枢纽。 WiFi远程访问地下室Spark设备实现协同开发;开发场景:Flux模型微调实验验证小样本学习可行性,VLM+LLM多模态工作流实现视频内容分析与事件审核的无缝协同。 结语DGX Spark的价值,在于它重新定义了“本地计算”的边界。
导语 近日,NVIDIA官方针对旗下轻量化AI设备DGX Spark的功耗参数发布重要更新,明确整机峰值总功率为240W,并详细拆解了GPU/CPU核心(GB10 SoC)与其他组件的功耗分配逻辑。 NVIDIA官方更新:240W总功耗背后的组件分工 NVIDIA在最新声明中明确指出:DGX Spark的整机峰值总系统功率为240W,具体由三大核心模块构成,每一部分的功率设计均经过精密权衡,以确保性能与稳定性的平衡 整机峰值240W:稳定运行的“硬上限” 三者相加的240W峰值总功耗,是DGX Spark在满负载运行时(GB10满血输出+其他组件全速工作)的理论功耗上限。 别忽略其他组件 在日常使用中,开发者通常通过NVIDIA官方工具nvidia-smi监测GPU状态,其中显示的“功耗”数值(单位:W)仅对应GPU部分的实时消耗,而非DGX Spark的整机能耗。 读懂官方声明,释放设备真实潜力 对于DGX Spark的用户而言,理解“240W整机峰值=140W GB10 SoC+100W其他组件”的分配逻辑,以及nvidia-smi的监测范围限制,是高效使用设备的第一步
DGX Spark(GB10):GB10 SoC的功耗为140瓦,略高于Jetson Thor。 这种能效比的提升,使得DGX Spark在处理高强度AI任务时更具优势。结论:虽然DGX Spark的功耗略高,但其更先进的制程技术使得其在能效比上占据优势。 对于需要长时间运行或依赖电池供电的场景,DGX Spark可能通过优化算法和任务调度来进一步降低实际功耗。 然而,DGX Spark通过优化内存控制器和QoS策略,在实际应用中可能表现出更高的内存访问效率和更稳定的性能。 DGX Spark(GB10):GB10实现了CPU直接访问GPU L2缓存的功能,将其作为L4缓存使用。
本文基于2月6日 NVIDIA DGX Spark Live 直播节目的问答整理 产品信息与资源 Q:在哪里可以找到DGX Spark的性能优化指南和教程? A: 这取决于运行的工作负载以及是否可以在 DGX OS(Linux)上运行。如果只是运行推理工作负载,可以将 DGX Spark 用作推理服务器。 与其他产品对比 Q: DGX Spark与AMD Halo的主要区别是什么? Mini 机器人项目 有用户在南极使用 Spark 更多关于DGX Spark NVIDIA 发布 DGX Spark 性能基准测试指南,赋能多节点 AI 高效部署 全新软件与模型优化为 NVIDIA DGX Spark 注入强大动力 【实验笔记】基于 NVIDIA DGX Spark 与 Reachy Mini 构建智能实体Agent
通过上述配置可解决设备间通信障碍,确保成功访问DGX Spark初始设置页面。 Q:我没有看到Spark的SSID。 DGX Spark仅会在初始设置完成前广播SSID。 若您已完成设置,此现象属正常;若未完成设置: 确认DGX Spark已通电: • DGX Spark创始人版无指示灯显示 • 检测设备是否开启:使用《快速入门指南》中的主机名(ping spark-xxxx Q:我的DGX Spark是否在插电时立即开机? 是的。您的DGX Spark会在插电时立即开机。如需关机,请按住设备背面的电源按钮五秒钟。完整操作详情请查阅《快速入门指南》。 关于安装和使用NVIDIA容器工具包运行Docker的说明,请参阅DGX Spark用户手册。 Q:DGX Spark是否支持NIMs? Q:移动地点后如何重新配置DGX Spark? -以太网连接:将DGX Spark通过以太网线接入路由器。
DGX Spark是否支持GPUDirect RDMA技术? 一文看懂 DGX Spark软件更新今日上线,同步支持基于NVIDIA GB10的OEM系统 本QA整理自NVIDIA线上讲座《DGX Spark Live: Process Text for GraphRAG 2.问:很多机器都能处理相关任务,为什么要在DGX Spark 上进行,讨论它有什么意义? DGX Spark 是Blackwell 的小型版本,适合小规模测试,后续可扩展到大规模应用,而5090 是游戏GPU,堆栈与DGX Spark 略有不同。 不建议使用DGX Spark 进行图分区,建议使用英伟达提供的相关工具。
这款最初在CES展上以"Project Digits"为名亮相的AI迷你PC,现更名为DGX Spark。 专为AI与机器人开发设计DGX Spark主要面向AI和机器人开发者、数据科学家和机器学习研究人员,旨在提供能运行高达2000亿参数模型的低成本工作站平台。 目前DGX Spark在技术上是英伟达显存容量最大的工作站GPU,这一地位将保持到基于Blackwell Ultra的DGX Station正式发布。 超级芯片的微型化突破DGX Spark的核心是GB10系统级芯片,本质上是驱动其旗舰NVL72机架系统的Grace-Blackwell超级芯片的微型化版本。 上市信息来自英伟达、某机构、某中心、某机构、某机构、某机构和某机构等厂商的DGX Spark系统将于10月15日正式上市。